Световни новини без цензура!
What War от A.I. Всъщност изглежда така
Снимка: nytimes.com
New York Times | 2024-04-10 | 21:25:40

What War от A.I. Всъщност изглежда така

През ноември левите израелски издания +972 списание и Local Call публикуваха смущаващо разследване на журналиста Ювал Абрахам относно използването на изкуствено израелски сили за отбрана разузнавателна система за идентифициране на цели в Газа – която бивш служител на разузнаването описа като „фабрика за масови убийства“. апокалипсис – видения, които понякога представят автономни оръжейни системи, които се развалят – може би сте очаквали огромен и тревожен отговор. Вместо това докладът, че войната се води отчасти от A.I. направи само малка вълна в дебатите относно поведението на Израел в Газа.

Може би това се дължи отчасти на факта, че – до обезпокоителна степен – експертите приемат, че формите на ИИ. вече са широко разпространени сред водещите военни в света, включително в Съединените щати, където Пентагонът разработва ИИ. за военни цели поне от администрацията на Обама. Според Foreign Affairs най-малко 30 държави сега работят със системи за отбрана, които имат автономни режими. Много от нас все още гледат на войните с изкуствен интелект като на визии от научно-фантастичното бъдеще, но A.I. вече е зашит в глобалните военни операции също толкова сигурно, колкото е зашит в тъканта на нашето ежедневие.

Това не е просто извън контрол ИИ. което представлява заплаха. Системите с недостатъчен контрол също могат да навредят. Washington Post нарече войната в Украйна „супер лаборатория за изобретения“, отбелязвайки „революция във войната с дронове, използваща ИИ“. Пентагонът разработва отговор на задвижвани от изкуствен интелект рояци дронове, заплаха, която е станала по-малко далечна, докато се противопоставя на атаките с дронове от йеменските хуси в Червено море. Според Асошиейтед прес някои анализатори предполагат, че е само въпрос на време „дронове да бъдат използвани за идентифициране, избор и атака на цели без помощ от хора“. Такива рояци, насочвани от системи, работещи твърде бързо за човешки контрол, „са на път да променят баланса на военната мощ“, предсказаха Елиът Акерман и адмирал Джеймс Ставридис, бивш съюзнически командир на НАТО, в The Wall Street Journal миналия месец. Други предполагат, че бъдещето е тук.

тотална война, отколкото антибунтовниците и интелигентните кампании, с които американците са свикнали повече. До декември близо 70 процента от домовете в Газа и повече от половината сгради бяха повредени или разрушени. Днес по-малко от една трета от болниците продължават да функционират, а 1,1 милиона жители на Газа са изправени пред „катастрофална“ продоволствена несигурност, според ООН. Може да изглежда като старомоден конфликт, но офанзивата на израелските отбранителни сили също е зловещ намек за военното бъдеще — както въведено, така и наблюдавано от технологии, възникнали едва след началото на войната срещу тероризма.

Миналата седмица +972 и Local Call публикуваха последващо разследване от Ейбрахам, което си заслужава да бъде прочетено изцяло. (The Guardian също публикува част от същия репортаж под заглавието „Машината го направи хладнокръвно“. Репортажът е представен на вниманието на Джон Кърби, говорител на националната сигурност на САЩ, и е обсъден от Аида Тума-Слиман , израелски арабин, член на Кнесета, и от генералния секретар на ООН Антонио Гутериш, който каза, че е „силно обезпокоен“ от това.) Докладът от ноември описва система, наречена Habsora (Евангелието), която според настоящи и бивши офицери от израелското разузнаване, интервюирани от Абрахам, идентифицира „сгради и структури, от които армията твърди, че екстремистите оперират“. Новото разследване, което беше оспорено от Израелските отбранителни сили, документира друга система, известна като Lavender, използвана за съставяне на „списък за убийства“ на заподозрени бойци. Системата Lavender, пише той, „е изиграла централна роля в безпрецедентните бомбардировки над палестинците, особено през ранните етапи на войната.“

Функционално Ейбрахам предполага, унищожаването на Газа – убийството на повече от 30 000 палестинци, повечето от тях цивилни, включително повече от 13 000 деца – предлага визия за война, водена от ИИ. „Според източниците“, пише той, „нейното влияние върху операциите на военните е било такова, че те по същество са третирали резултатите от ИИ. машина „сякаш това е човешко решение“, въпреки че алгоритъмът имаше признат 10-процентов процент грешки. Един източник каза на Абрахам, че хората обикновено преглеждат всяка препоръка само за 20 секунди – „само за да се уверят, че целта, маркирана с лавандула, е мъж“, преди да дадат „гумен печат“ на препоръката.

По-абстрактните въпроси, повдигнати от перспективата за ИИ. войната са обезпокоителни по въпросите не само на машинната грешка, но и на крайната отговорност: Кой е отговорен за атака или кампания, проведена с малко или никакво човешко участие или надзор? Но докато един кошмар за военен ИИ. е, че му се дава контрол върху вземането на решения, друго е, че помага на армиите просто да станат по-ефективни по отношение на вече взетите решения. И както го описва Ейбрахам, Лавандулата не сее хаос в Газа по собствено желание. Вместо това се използва, за да се претегли вероятната военна стойност спрямо съпътстващите щети по много специфични начини - по-малко като оракул от черна кутия на военна преценка или черна дупка на морална отговорност и повече като разкрития дизайн на военните цели на Израелските отбранителни сили.

В един момент през октомври, съобщава Ейбрахам, израелските отбранителни сили са се насочили към младши бойци, идентифицирани от Лавендър, само ако вероятните съпътстващи щети могат да бъдат ограничени до 15 или 20 смъртни случая на цивилни — шокиращо голям брой, като се има предвид, че никакви съпътстващи щети не се считат за приемливи за бойци от ниско ниво. Повече старши командири, съобщава Ейбрахам, ще бъдат насочени дори ако това означава убийството на повече от 100 цивилни. Втора програма, наречена Where’s Daddy?, беше използвана за проследяване на бойците до домовете им, преди да ги насочи там, пише Ейбрахам, защото правенето на това на тези места, заедно със семействата им, беше „по-лесно“, отколкото проследяването им до военни постове. И все по-често, за да избегнат загубата на интелигентни бомби за насочване към домовете на заподозрени младши оперативни служители, израелските отбранителни сили избраха вместо това да използват много по-малко прецизни тъпи бомби.

В отговор на новия доклад Израелските отбранителни сили казаха, че „ не използва система с изкуствен интелект, която идентифицира терористични оперативни работници“, като пише, че „информационните системи са просто инструменти за анализаторите в процеса на идентифициране на целите“. Израелските отбранителни сили по-рано се похвалиха с използването на ИИ. в набелязването на Хамас и според Haaretz създаде широки „зони на убийство“ в Газа, като всеки, който премине в тях, се смяташе за терорист и беше застрелян. (Израелските отбранителни сили отрекоха да са дефинирали зони на убийство.) В CNN анализаторът Барак Равид каза на Андерсън Купър за разговор, който е имал с израелски офицер от резерва, който му казал, че „заповедите са основно - от командирите на земята — застреляйте всеки мъж в бойна възраст“, ​​описание, което съответства на коментари от миналата седмица на бившия C.I.A. директор и министър на отбраната Леон Панета, който каза: „Според моя опит израелците обикновено стрелят и след това задават въпроси.“

Накъде отиват нещата от тук нататък? Въпросът се отнася не само до поведението на Израел в Газа или ескалацията на безпилотните летателни апарати в Украйна, където безпилотните ръчни боеве вече са оформили хода на войната, където Русия широко е разположила инструменти за електронна война за заглушаване на украински дронове и където, според анализ във War на скалите, Русия „се опитва да направи крачки за автоматизиране на цялата верига за убийства“. Warfare“, Пол Шаре от Центъра за нова американска сигурност скицира редица възможни краткосрочни фючърси, от автономни рояци, които ще се бият помежду си толкова независимо, колкото ботовете за високочестотна търговия, до възможността A.I. може да му бъде дадена власт над съществуващите ядрени арсенали.

Той също предлага проактивен и вероятно оптимистичен план от пет точки: правителствата да се съгласят с човешки надзор на военния ИИ, да забранят автономни оръжия, които са насочени към хора, че те разработват протокол за най-добри практики за предотвратяване на инциденти, че нациите ограничават контрола върху ядрените оръжия до хората и че държавите приемат конвенционален наръчник за поведение на дронове. „Без ограничения, човечеството рискува да се насочи към бъдещето на опасна, управлявана от машини война“, пише Шаре, а прозорецът за предприемане на действия „се затваря бързо“.

Не всички са съгласни, че се доближаваме до еквивалента на военна уникалност, след която войната ще стане неузнаваема, а не към по-бавна еволюция, с повече промени под повърхността. „Военните революции често са били по-малко радикални, отколкото първоначално се предполагаше от техните защитници“, пише военният учен Антъни Кинг за War on the Rocks. И докато той вярва, че не сме чак толкова близо до края на човешкия надзор и нарича „много малко вероятно“ скоро да се окажем в свят на наистина автономна война, той също така вярва, че „данните и ИИ. са — може би дори — критичната разузнавателна функция за съвременната война. Всъщност „всяка военна сила, която иска да надделее на бойните полета на бъдещето, ще трябва да впрегне потенциала на големите данни – тя ще трябва да овладее дигитализираната информация, наводняваща битката“, пише той. „Хората просто нямат капацитета да направят това.“ Предполага се, че А.И. ще.

Източник: nytimes.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!